2 - Wie gut können Computer hören? Die Analyse von Musikaufnahmen als interdisziplinäres Forschungsfeld [ID:11478]
50 von 495 angezeigt

Ja, vielen herzlichen Dank für die Begrüßung und vielen herzlichen Dank für die Möglichkeit,

hier über meine Arbeit sprechen zu dürfen im Kollegium Alexandrinum. Zu meiner Person wurde

schon ein bisschen was gesagt. Ich bin eigentlich Oberpfälzer, habe dann in Würzburg eben Physik

und Komposition studiert und bin in dem Bereich auch noch aktiv, also ich komponiere noch und

damit es gleich mit Musik losgeht, habe ich Ihnen eine Minute Kostprobe meiner Musik mitgebracht,

genauer gesagt vom Seitengesang für Cello und Klavier.

Ja, was macht man mit so einer verrückten Kombination? Es war zunächst nicht der Plan,

das irgendwie zu kombinieren, bis ich dann auf die Forschungsthemen des Fraunhofer Instituts für

digitale Medientechnologien Ilmenau aufmerksam geworden bin, wo ich dann eine Promotion begonnen

habe mit dem griffigen Titel Computational Methods for Tonality-Based Style Analysis of

Classical Music Audio Recordings und was der genau bedeutet, wissen Sie hoffentlich in einer Stunde

etwas besser. Seit 2015 bin ich in Erlangen bei den Audiolabs, arbeite nebenher als freischaffender

Komponist und habe mich letztes Jahr gefreut über den Klartextpreis für Wissenschaftskommunikation.

Was sind die Audiolabs? Die Audiolabs sind eine Gemeinschaftseinrichtung dieser beiden Institutionen,

des Fraunhofer Instituts für integrierte Schaltungen und der Universität und die haben ein bekanntes

Kind, das heißt MP3 und dem Erfolg von MP3 haben wir unter anderem auch die Audiolabs zu verdanken,

wo eben im Bereich Audio weitergeforscht wird, vor allem von diesen Professoren für ganz

verschiedene Themen rund ums Thema Audio. Da gibt es einerseits die klassische Sparte,

die Audiokodierung, also Nachfolgetechnologien von MP3, das hängt dann auch wieder sehr eng zusammen

mit der Psychoakustik, dann wird geforscht im Bereich dreidimensionales Audio und virtuelles

Audio und eben auch im Bereich der Musikverarbeitung. In der Arbeitsgruppe bin ich beschäftigt und wir

sind derzeit fünf Leute, geleitet von Professor Meinhard Müller, da haben wir mehrere Doktoranden.

Und die Themen der Musikverarbeitung oder das Music Information Retrieval drehen sich alle um

die Analyse von Musikaufnahmen, also Audiodaten von Musik, zum Beispiel die Synchronisierung

zwischen verschiedenen Modalitäten oder zwischen verschiedenen Einspielungen eines Werkes,

die Strukturanalyse von Musikdaten, die Harmonieanalyse oder auch Tempo- und Rhythmusanalyse.

Und so der heilige Gral unserer Forschungsrichtung ist sozusagen die automatische Transkription,

das heißt man will ein Audio reinstecken und eine vollständige Partitur wieder raus bekommen,

das ist nicht so einfach. Deswegen beschäftigen wir uns heute mit einem anderen Thema, nämlich

der Harmonieanalyse. Und für die unter Ihnen, die vielleicht kein Instrument spielen, ist der

Begriff vielleicht etwas sperrig. Eine praktische Anwendung, wenn ich zum Beispiel dieses wunderschöne Lied habe.

Genau, kennt jeder. Und es gibt dann doch sehr oft die Situation, dass man als Lagerfeuergitarist

den Song dann spontan begleiten soll. Und die meisten Lagerfeuergitaristen haben irgendwann mal

gelernt, nach solchen schönen Buchstaben zu spielen. Das sind Akkordsymbole und zu jedem

Symbol hat dann der Lagerfeuergitarist einen schönen Griff gelernt. Und wo kommen die Symbole her? Da

hat entweder ein schlauer Mensch mit guten Ohren sich mal hingesetzt und hat die aufgeschrieben

oder ein schlauer Algorithmus hat die berechnet. Und solche Algorithmen werden wir heute ein bisschen

kennenlernen. Es gibt Harmonieanalyse auch in der klassischen Musik, da ist es sogar noch wichtiger.

Und da habe ich heute ein Beispiel mitgebracht, ein Choral von Bach.

Ich habe da unten schon mal eine kleine Harmonieanalyse mit eingeblendet. Das sind jetzt keine

Akkordsymbole, sondern eher Tonarten, lokale Tonarten. Und wenn die Tonart wechselt,

dann sprechen wir von einer Modulation. Das ist zum Beispiel hier der Fall. Und warum das wichtig

ist, ein Grund dafür ist, dass es oft sehr viel mit der musikalischen Struktur zu tun hat. Das heißt,

an manchen dieser Modulationen oder Tonartwechsel sind auch Strukturgrenzen. In dem Fall haben wir

zum Beispiel hier zweimal einen Teil, den man Stollen nennt, der wiederholt wird und einen

Abgesang. Und das ergibt dann die musikalische Barform. Wie macht der Musikwissenschaftler das?

Der geht üblicherweise nicht vom Audio aus, sondern von so einem Klavierauszug oder Notentext. Und der

hat dann eben gelernt, sehr gut Noten zu lesen und sieht dann sofort, hier sind vier Kreuz und hier

steht sonst nicht viel an Vorzeichen. Also ist das auf jeden Fall mal hier E-Dur. Dann sieht er hier

so ein bisschen A-is, also einen erhöhten Ton, H-Dur und der Rest, ja da sind ein paar komische

Teil einer Videoserie :

Presenters

Christof Weiß Christof Weiß

Zugänglich über

Offener Zugang

Dauer

00:58:54 Min

Aufnahmedatum

2019-05-09

Hochgeladen am

2019-05-24 15:04:32

Sprache

de-DE

Im Grenzbereich von Musik, Naturwissenschaft und Technik ist ein spannender Forschungsbereich entstanden, der Algorithmen zur Beschreibung von Musikaufnahmen (Audio) entwickelt. Ausgehend von einfachen Frequenzmessungen können Tonhöhen, Akkorde und Tonarten analysiert werden – bis hin zur automatischen Erkennung von Epochen oder Komponisten. Solche Technologien bieten auch neue Möglichkeiten für die Musikwissenschaften, was mitunter zu erstaunlichen Ergebnissen führt.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen